Компания VMware опубликовала очередной номер своего технического журнала VMware Technical Journal Summer 2013, в котором разбираются наиболее интересные технические аспекты решений для виртуализации на весьма глубоком уровне (зачастую даже с математическими выкладками). Напомним, что о предыдущем выпуске VMware Technical Journal мы писали вот тут. Как и в прошлом выпуске все статьи доступны онлайн и как PDF (5 МБ).
Мне понравились "Redefining ESXi IO Multipathing in the Flash Era" и "Methodology for Performance Analysis of VMware vSphere under Tier-1 Applications".
Некоторые из вас, возможно, в курсе, что существует такой проект Google Authenticator, который позволяет организовать двухфакторную аутентификацию через телефон (как по СМС, так и через приложение), которая позволяет не только вводить свой постоянный пароль, но и дополнительно временно генерируемый код, что существенно снижает риски несанкционированного доступа. Возможно, кто-то из вас использует это для своей почты на GMAIL:
Данный способ аутентификации очень надежен, так как злоумышленник без вашего телефона не получит доступа к сервису, поскольку он не получит временный пароль, а украв ваш телефон, он тоже не получит доступа, так как не знает постоянного пароля. Однако и этот способ не защищает от древнейшей утилиты взлома шифров и паролей - раскаленного утюга.
Компания VMware несколько доработала этот продукт, и на сайте проекта VMware Labs появился новый флинг - ESXi Google Authenticator, который позволяет организовать двухфакторную аутентификацию для доступа к консоли хост-серверов по SSH.
Для данного механизма обеспечения дополнительной безопасности поддерживаются хост-серверы ESXi 5.0 и 5.1, при этом допускается несколько администраторов одного сервера, использующих Google Authenticator (только ESXi 5.1).
Основные возможности ESXi Google Authenticator:
Поддержка двухфакторной аутентификации как для ESXi Shell, так и для доступа через SSH.
Поддержка нескольких логинов для ESXi 5.1 и одного (root) для ESXi 5.0.
Поддержка 30-секундных кодов TOTP (меняются каждые полминуты).
Поддержка кодов аварийного логина на случай, если телефон был украден (emergency scratch codes).
Защита от атак с повторением запросов.
Технически аутентификация в ESXi Google Authenticator организована средствами модуля PAM (Pluggable Authentication Module) и специального приложения, доступного для платформ Android, iOS и Blackberry.
Продолжаем рассказывать о возможностях новой версии универсального решения для резервного копирования и репликации Veeam Backup and Replication 7. Напомним, что продукт должен выйти в третьем квартале этого года, а пока Veeam анонсировала, что раскроет семь новых возможностей B&R, каждая из которых является существенным улучшением не только по сравнению с предыдущей версией, но и на фоне любых других продуктов для резервного копирования виртуальных машин.
На днях компания Veeam рассказала о последнем нововведении - возможности создания виртуальных лабораторий для реплик виртуальных машин, являющихся копиями основных производственных систем.
Источник данной возможности - запросы пользователей на механизм проверки работоспособности резервной инфраструктуры реплик, позволяющий быть уверенным, что в случае сбоя основного сайта, реплики смогут запуститься корректно на резервной площадке, и требования к RTO будут выполнены.
То есть, по-сути, это механизм SureBackup для инфраструктуры реплик, которого уже давно ждали пользователи Veeam Backup and Replication. Также там будут работать техники U-AIR (восстановление объектов приложений) и песочница On-Demand-Sandbox.
Напомним, как работают технологии виртуальных лабораторий Veeam:
Для задачи выделяется хост-сервер ESXi или Hyper-V
На этом хосте создается отдельный виртуальный коммутатор
Специальный виртуальный модуль (Proxy Appliance) соединяется с виртуальным коммутатором для обеспечения сетевой связи изолированной тестовой лаборатории и внешней среды.
Запрошенные виртуальные машины запускаются из файлов бэкапа напрямую, с использованием технологии vPower
То есть, к машинам становится возможен доступ извне для тестирования работоспособности сервисов приложений, но сами эти машины никогда не смогут соединиться с серверами внешней среды и полностью изолированы от производственного окружения.
Созданная технология верификации работоспособности реплик по аналогичной схеме называется SureReplica. При этом есть несколько приятных моментов:
DR-сайт можно задействовать как под задачи тестирования реплик, так и частично использовать сервисы виртуальных машин. Например, в таких изолированных окружениях можно тестировать новые групповые политики перед их применением в производственной среде. То есть, все это можно использовать в качестве стейджинга.
Функции Virtual Lab теперь включают поддержку Distributed Virtual Switch (DVS), что позволяет создавать изолированные лаборатории, задействующие несколько хост-серверов.
Реплики находятся на обычных дисках (без сжатия и не в архивах), что значит, что это будет работать намного быстрее, чем при тестировании резервных копий, которые запускаются напрямую из бэкапов.
Более подробно о функциях виртуальных лабораторий для реплик виртуальных машин можно узнать по этой ссылке. Продукт Veeam Backup and Replication 7 будет выпущен в третьем квартале 2013 года.
В большой инфраструктуре виртуальных ПК, насчитывающей сотни десктопов, администраторам часто приходится решать проблемы, связанные с управлением группами Active Directory, которые назначаются пулам виртуальных ПК. С увольнением пользователя из организации или, наоборот, с его приходом приходится вручную изменять группы AD и настройки пулов VMware Horizon View, чтобы убедиться, что число пользователей группы AD совпадает с количеством доступных виртуальных ПК в каждом пуле, и пользователи VDI распределены по пулам корректно.
Для автоматизации решения этих задач на сайте проекта VMware Labs доступна утилита View Pool Manager, с помощью которой можно выполнять следующие операции с группами AD:
Указать количество пользователей на security group (исходя из размера пула виртуальных ПК).
Поддержка плавающих непостоянных (Floating) и постоянных (Persistent) пулов.
Source Security Groups - группы, содержащие пользователей, которые назначаются пулам виртуальных ПК через целевые группы.
Destination Security Groups - целевые группы, имеющие права на лоступ к пулам виртуальных ПК. Этим группам назначаются пользователи исходных групп.
Очевидно, что VMware View Pool Manager не зависит от версии VMware View, так как работает только с группами Active Directory. Скачать утилиту можно по этой ссылке. Для ее работы требуется .NET Framework 4.0.
Но следующая возможность порадует всех тех, кто с нетерпением ждал от Veeam поддержки резервного копирования на ленточные библиотеки, которые все еще остаются весьма распространенным техническим средством в Enterprise-инфраструктурах:
Если некоторые думают, что ленточные приводы для бэкапов уже не используются, то стоит поспрашивать коллег из крупных компаний, таких как РЖД или Газпром. Ленты живут и будут там жить еще долго, в том числе и потому, что они позволяют хранить резервные копии в географически удаленном от основного датацентра месте (на случай катастрофы).
Veeam Backup and Replication 7 будет поддерживать виртуальные ленточные библитеки (virtual tape library, VTL), физические ленточные библиотеки (tape libraries) и отдельные приводы (standalone drives).
Возможность Backup to tape позволяет осуществлять резервное копирование виртуальных машин на ленточные приводы (в рамках одной или нескольких задач), а также позволяет архивировать весь репозиторий Veeam Backup and Replication 7 на ленты.
Кроме этого, новая версия Veeam Backup and Replication 7 имеет возможность Files to tape, которая позволяет производить резервное копирование отдельных файлов ОС Windows или Linux на ленты. Важно, что для этой возможности поддерживаются не только виртуальные, но и физические серверы. При этом такой тип резервного копирования поддерживает механизм Microsoft VSS для создания консистентных бэкапов.
Интересно, что бесплатный продукт Veeam Backup Free Edition будет поддерживать возможность Files to tape, а также восстановление файлов, резервные копии которых сделаны с помощью встроенного средства Windows NTBackup.
Функция Restoring backups from tape позволяет восстановить с ленточных носителей резервные копии виртуальных машин на один из репозиториев Veeam, после чего станут доступны к использованию возможности Instant VM Recovery, Veeam Explorer for Microsoft Exchange и все другие Enterprise-фичи Veeam.
Помимо восстановления виртуальных машин целиком, есть, конечно же, и восстановление отдельных файлов с лент - Restoring files from tape. Выбираете целевую папку на физической или виртуальной машине и восстанавливаете туда необходимые файлы с ленточных приводов. Вот так, дождались - и это хорошо. Скоро не будет необходимости использовать Veeam для резервного копирования ВМ на дисковые устройства, а затем сторонний софт для сброса резервных копий на ленточные приводы. Теперь можно будет обходиться только решением Veeam Backup and Replication 7.
Кроме того, мы не упоминали о еще одной возможности Veeam Backup and Replication 7 - Virtual Lab for Hyper-V. Напомним, что еще в версии Veeam Backup and Relication 6.1 появилась поддержка технологии vPower для инфраструктуры резервного копирования виртуальных машин на платформе Hyper-V. Это касается и техники Instant VM Recovery - мгновенного восстановления ВМ за счет ее запуска напрямую из резервной копии.
Теперь же для инфраструктуры Hyper-V появилась поддержка виртуальных лабораторий по запросу (On-Demand Sandbox), которые для VMware vSphere были доступны еще в пятой версии продукта.
С помощью техник мгновенного запуска резервных копий администратор может запустить набор приложений в виртуальных машинах, являющихся изолированными копиями машин производственной среды, и проводить там какие угодно тесты. Для тестовой лаборатории задается хост Hyper-V, где это будет происходить, Datastore, Proxy Appliance для доступа Veeam Backup к тестовой лаборатории с виртуальными машинами в изолированной сети и настройки этой самой сети.
Более детально о возможности Virtual Lab for Hyper-V можно почитать вот в этом посте.
Таги: Veeam, Backup, Update, Storage, Tape, Replication, Hyper-V, Microsoft
На днях компания VMware выпустила полезную штуку под названием vCenter Certificate Automation Tool 1.0. Как знают многие администраторы VMware vSphere в последней версии платформы (5.1) сертификаты стали играть более заметную роль, чем ранее, и теперь их приходится настраивать для различных компонентов.
Теперь же с помощью утилиты командной строки vCenter Certificate Automation Tool 1.0 (это набор скриптов) можно просто заменить сертификаты для следующих продуктов VMware:
vCenter Server
vCenter Single Sign On
vCenter Inventory Service
vSphere Web Client
vCenter Log Browser
vCenter Orchestrator (VCO)
vSphere Update Manager (VUM)
Утилита работает в интерактивном режиме, и прежде, чем приступить к работе с ней, необходимо ознакомиться с инструкциями, приведенными в KB 2041600. Также полезно будет почитать KB 2044696 (это о том, как сгенерировать сертификаты для использования с vCenter Certificate Automation Tool).
Надо отметить, что продукт поддерживает только vCenter 5.1 и его компоненты, развернутые на платформах Windows Server 2003 R2 SP2 и Windows Server 2008 R2 SP2.
Для vCenter Certificate Automation Tool есть три режима работы:
Single virtual machine (all services in one machine) - в этом случае все сервисы SSL Certificate Automation Tool развертываются в одной виртуальной машине.
Multiple virtual machines (machine per service) - каждый сервис устанавливается на отдельной виртуальной машине для выполнения функций по замене сертификатов для одного из 7 продуктов (они приведены выше).
Mixed mode (multiple services per machine) - в этом случае несколько сервисов утилиты развертываются на одной машине (где надо заменять сертификаты), а некоторые сервисы - на других.
Кроме того, напомним для интересующихся, что в данный момент разрабатывается средство vCert Manager от VSS Labs, выполняющее схожие функции (но намного больше), бета которого уже есть:
Вот какие функции по сравнению с vCenter Certificate Automation Tool заявляют авторы:
Более подробно об утилите vCert Manager можно прочитать по этой ссылке.
На сайте проекта VMware Labs появилась новая утилита - StatsFeeder, которая позволяет собрать статистику производительности виртуальной инфраструктуры с сервера VMware vCenter. StatsFeeder представляет собой набор Java-классов, которые нужны, чтобы складывать статистику в xml-файл с учетом масштабного роста данных. Далее эти данные можно визуализировать.
Кроме того, эти данные можно передавать сторонним системам мониторинга. По-сути, StatsFeeder - это фреймворк для разработчиков, планирующих интеграцию своих решений с метриками производительности vCenter.
Не так давно мы писали о публичной доступности программы VMware Hands-On Labs (HOL), представляющей собой онлайн-сервис, в котором пользователи могут выполнять лабораторные работы на базе различных продуктов VMware. Теперь же компания VMware объявила о запуске Hosted Beta Program, построенной на базе Hands-On Labs и предназначенной для тестирования потенциальными заказчиками VMware решений, построенных на базе продуктов vSphere, Horizon View, vCloud Director и других.
Для работы в среде Hosted Beta Program потребуется обычный браузер с поддержкой HTML5 (то есть последний Horizon View Client). Это позволит ознакомиться с новыми решениями и технологиями VMware, не тратя долгие часы на поиск оборудования и их развертывание и настройку.
Для запроса на участие Hosted Beta Program в нужно зарегистрироваться на этой странице.
На сайте проекта VMware Labs (напомним про наш тэг проекта) не так давно появилась утилита VMware vCenter 5.1 Pre-Install Check Script. Не будучи полностью поддерживаемым и оттестированным продуктом, эта утилита будет полезна администраторам, которым необходимо установить или обновить сервер управления vCenter до версии 5.1. Этот скрипт PowerShell / PowerCLI позволяет проверить, что все необходимые требования для установки vCenter 5.1 выполнены:
Скрипт осуществляет следующие виды проверок:
Проверка ОС сервера
Проверка домена Active Directory
Проверка леса Active Directory
Проверка синхронизации времени
Проверка системы разрешения имен (DNS)
Проверка доступности необходимых портов
Тест контроллера домена
Проверка аутентификации vCenter Server
Скрипт запускается просто, без параметров:
PS C:\>cd Scripts
PS C:\Scripts>.\PreCheckv2.ps1
Пример работы VMware vCenter 5.1 Pre-Install Check Script показан на видео ниже:
Более подробно об этом скрипте можно узнать на этой странице.
У компании VMware есть специализированное ПО для моделиирования рабочей нагрузки в VDI-среде - VMware View Planner 2.0. К сожалению, это средство доступно только партнерам VMware, однако умной голове не составит труда раздобыть его. Также, напомним, что мы уже писали о средствах тестирования VDI-нагрузок: VDI Sizing Tool и Login VSI.
View Planner поставляется в виде виртуального модуля (Virtual Appliance) в формате OVF, построенного на базе дистрибутива Linux Centos 5.x и требующего 2 GB памяти и один vCPU на виртуальную машину.
View Planner предназначен для генерации различных сценариев рабочей нагрузки виртуальных ПК, включая управление состояниями виртуальных машин, пользователями Active Directory, построение отчетов и прочее. Все это управляется через веб-интерфейс, присутствующий у виртуального модуля, включая службы Active Directory и конфигурации View Connection servers, контролируемые средствами развертываемых на них агентов.
Архитектурно решение VMware View Planner состоит из следующих компонентов:
Виртуальные ПК на хостах VMware ESXi.
Несколько клиентских виртуальных машин на хостах ESXi - используются для удаленного режима или пассивных тестов, т.е. те, откуда происходит доступ к виртуальным ПК.
View Planner можно запускать в трех различных режимах:
Remote mode - в этом случае для каждой тестируемой ВМ будет своя клиентская машина. Это самый затратный с точки зрения необходимых ресурсов способ тестирования, однако самый адекватный.
Passive Client mode - в этом режиме клиентских машин требуется меньше и они только пассивно принимают результаты вывода тестируемых машин, а последние генерируют нагрузку. Это позволяет снизить требования к нужным для тестирования ресурсам.
Local mode - в этом случае тесты исполняются только на десктопах, без клиентов. Это не учитывает сетевой трафик между ними, поэтому менее репрезентативно, зато и менее затратно.
Вот, например, как работает тест в режиме Remote mode:
Все данные о тестировании нагрузок хранятся в базе данных MySQL.
Модель нагрузки задается в виде блоков, каждый из которых создается под свою задачу для виртуальных ПК:
Пример рабочей нагрузки, генерируемой View Planner:
В качестве результатов работы View Planner вы получите следующие полезные параметры:
Время отклика в виртуальном ПК (Responce Time) - показатель QoS для пользователей
Статистики использования ресурсов (Resource stats)
Запускаем тест, получаем примерное число виртуальных ПК (пользователей), которые выдержит наша виртуальная инфраструктура с заданным показателем QoS (в данном случае время отклика - 1,5 секунды):
Из таблицы видно, что при заданной модели нагрузки наша VDI-инфраструктура с приемлемым показателем качества обслуживания будет выдерживать максимум ~130 пользователей. Не такого ли ответа на вопрос ожидают те из вас, кто планирует VDI-инфраструктуру у себя в организации?
Чтобы продолжить изучение полезного продукта VMware View Planner, рекомендую обратиться по следующим ссылкам:
На днях, на сайте проекта VMware Labs (у нас есть тэг Labs) появилась новая утилита DRMdiagnose, с помощью которой возможно просмотреть информацию о текущем состоянии ресурсов кластера и получить рекомендации по управлению ими.
DRM - это Distributed Resource Manager, основной компонент VMware vSphere, являющийся ядром механизма VMware DRS, который осуществляет балансировку ресурсов в кластере. Основное назначение утилиты DRMdiagnose - это предоставление информации о том, что произойдет с производительностью виртуальных машин и их вычислительными ресурсами, если настройки ресурсов (limit, shares, reservation) будут изменены для какой-то из виртуальных машин. Кроме того, эта утилита выдает рекомендации относительно того, что нужно сделать с ресурсами виртуальных машин по отношению к текущим назначенным ресурсам (уменьшить, увеличить).
Появилась эта утилита по той причине, что пользователи VMware vSphere не знали, что происходит с кластером и его производительностью при регулировании настроек выделения ресурсов для виртуальных машин. Утилита позволяет получить рекомендации относительно того, как можно изменить настройки ресурсов ВМ для достижения оптимальной производительности.
DRMdiagnose позволяет увидеть рекомендации в кластере наподобие таких:
Increase CPU size of VM Webserver by 1
Increase CPU shares of VM Webserver by 4000
Increase memory size of VM Database01 by 800 MB
Increase memory shares of VM Database01 by 2000
Decrease CPU reservation of RP Silver by 340 MHz
Decrease CPU reservation of VM AD01 by 214 MHz
Increase CPU reservation of VM Database01 by 1000 MHz
Для того, чтобы начать пользоваться DRMdiagnose, нужно скопировать в рабочую папку с утилитой снапшот кластера (drmdump), содержащий информацию о виртуальных машинах и их запросы на вычислительные ресурсы. Находится он вот тут:
vCenter server appliance: /var/log/vmware/vpx/drmdump/clusterX/
vCenter server Windows 2003: %ALLUSERSPROFILE%\Application Data\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\
vCenter server Windows 2008: %ALLUSERSPROFILE%\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\
Сама утилитка может работать в трех режимах:
Default - если указан путь к drmdump, то выводятся все ВМ кластера, их назначенные ресурсы, а также запрашиваемые ресурсы.
Guided - если указан путь к drmdump и целевые параметры ресурсов ВМ, то утилита сгенерирует набор рекомендаций для их достижения.
Auto - если указан путь к drmdump, то будут сгенерированы рекомендации для самых несбалансированных ВМ (то есть ВМ, для которых разница между назначенными и запрашиваемыми ресурсами самая большая).
Выглядят снапшоты кластера вот так:
А вот так можно запустить утилиту в дефолтном режиме для вывода информации в файл output.txt:
Формат использования DRMdiagnose:
Работает DRMdiagnose только с VMware vCenter 5.1 и выше, скачать утилиту можно по этой ссылке.
Некоторое время назад компания VMware открыла регистрацию пользователей для приема заявок на доступ к порталу лабораторных работ VMware Hands-On Labs (HOL), которая доступна по этой ссылке (нужно указывать корпоративный email). Эти лабораторные работы (которые в большом количестве проводились на конференциях VMware VMworld) позволяют приобрести практический опыт по управлению элементами инфраструктуры VMware vSphere и другими решениями (VMware View, vCloud Director), а также получить новые технические знания на достаточно глубоком уровне - и все это онлайн, бесплатно и без необходимости покупать серверы для обучения и настраивать там соответствующие компоненты.
Недавно компания VMware объявила о том, что публичная бета-версия Hands-On Labs уже запущена, а приглашения уже начали поступать некоторым пользователям. Если вы зарегистрировались ранее, то логины и пароли должны прийти в течение последующих нескольких дней. Для новых пользователей регистрация по-прежнему доступна.
Проводимые лабораторные работы будут полезны также и для тех пользователей, кто уже применяет VMware vSphere, так как там рассматриваются различные Enterprise-компоненты платформы, такие как распределенный коммутатор vSphere Distrinuted Switch (vDS), которые могут быть не развернуты или не использоваться в производственной среде предприятия. Кроме того, лабы HOL могут оказаться полезными при подготовке к экзаменам по линии сертификации VMware Certified Professional.
Для примера название лабораторной работы: HOL-INF-02 – Explore vSphere 5.1 Distributed Switch (vDS) New Features. Полное описание лабораторных работ доступно по этой ссылке.
Таги: VMware, vSphere, Обучение, ESXi, vCenter, View, vCloud, Director
Мы уже писали о продукте VMware vCenter XVP Manager and Converter, который доступен с сайта проекта экспериментальных разработок VMware Labs и позволяет перенести часть базовых задач по управлению виртуальной средой Hyper-V на сторону vCenter. Делается это через vCenter XVP Manager plug-in для vSphere Client. Однако официально со стороны VMware это решение не поддерживается, поэтому представляло оно интерес только для тех, кому интересно покрутить Hyper-V в своей тестовой лаборатории.
После выпуска Microsoft Hyper-V 3.0 в составе Windows Server 2012, который, помимо прочего, позволяет управлять серверами VMware vSphere, компания VMware стала всерьез задумываться о том, как можно управлять гибридной средой гипервизоров ESXi и Hyper-V. Как результат - появилась информация о том, что в скором времени будет выпущен официальный VMware vSphere Multi-Hypervisor Manager (MHM) с поддержкой управления серверами Microsoft Hyper-V 3.0, поставляемый в виде плагина к vSphere Client.
Как мы видим из картинки, vCenter MHM 1.0 будет предоставлять следующие возможности по управлению сторонними гипервизорами:
Добавление/удаление хостов Hyper-V в окружение vCenter
Информация о конфигурации хостов Hyper-V (processor, memory, network)
Создание/удаление виртуальных машин на Hyper-V
Удаленная консоль как к самим хостам Hyper-V, так и к виртуальным машинам
Простейшие операции по управлению питанием хостов и виртуальных машин (power off, power on, suspend, shut down guest и reset)
Изменение настроек виртуальных машин: память, vCPU, диски, сетевые адаптеры и прочее виртуальное "железо"
Отображение задач для хостов Hyper-V и виртуальных машин на общей панели задач и событий vSphere Client
Интегрированная авторизация с vCenter
На прошедшем VMworld 2012 на тему vSphere Multi-Hypervisor Manager было не так много информации:
Архитектура решения:
Как сообщается, плагин MHM для vCenter будет доступен бесплатно для всех пользователей VMware vSphere, у которых есть vCenter Standard. Выпуск решения VMware vSphere Multi-Hypervisor Manager ожидается в самое ближайшее время.
Автор сайта v-front.de выпустил обновленную версию утилит ESXi5 Community Packaging Tools 2.0 (ESXi5-CPT), которые позволяют создавать пакеты для VMware ESXi в форматах VIB (VMware Installation Bundle) and ZIP (VMware Offline Bundle). Для VIB-файлов их статус (acceptance level) будет указан как Community Supported. Об этих утилитах от Andreas Peetz мы уже писали вот тут. Зачастую, эти утилиты необходимы пользователям для включения сторонних драйверов устройств в состав дистрибутива платформы ESXi, которые отсутствуют в стандартном комплекте поставки.
Новые возможности ESXi5 Community Packaging Tools 2.0:
Поддержка VMware ESXi 5.1.
Обновленный TGZ2VIB5.cmd 2.0:
Добавлены новые опции GUI с дополнительными настройками VIB и параметрами установки
Добавлено меню для загрузки шаблонов настроек для различных типов пакетов (например, "Hardware driver" или "Firewall rule")
Возможность не указывать контрольные суммы в дескрипторном XML-файле
Утилита VIB2ZIP не изменялась.
Скачать ESXi5 Community Packaging Tools 2.0 можно по этой ссылке.
Также, напомним, что на сайте проекта VMware Labs есть еще одно средство для создания VIB-пакетов для VMware ESXi, но работающее только в командной строке и под Linux - VIB Author.
Одна из дополнительных опций VIB Author - это возможность задания электронной подписи к VIB-файлу, однако это не требуется для пакетов уровня Community Supported. Кроме того, VIB Author позволяет редактировать далеко не все директории, поэтому ESXi5-CPT - наш выбор.
Достаточно давно, известный многим Duncan Epping писал о стартапе CloudPhysics, для которого он является техническим эдвайзором, и который выпускает продукт в виде виртуального модуля (Observer Virtual Appliance), систематизирующий информацию о количественных параметрах виртуальной среды VMware vSphere в виде карточек. На основе этих карточек можно составить заключение о существующих проблемах своей инфраструктуры виртуализации:
Для работы продукта потребуется установить OVA-модуль в своем окружении VMware vSphere, а дальше для просмотра параметров карточек можно использовать веб-консоль (для кого-то это может быть проблемой, так как данные посылаются на сервер CloudPhysics, однако они утверждают, что данные полностью обезличены).
Сами карточки формируются на базе опросов пользователей и всяческих голосований, которые проводятся, например, на конференциях VMworld. Вот примеры таких карточек:
Затем лучшие карточки, будучи реализованными технически, попадают в основной интерфейс продукта (при этом для появления новых карточек не обязательно обновлять виртуальный модуль в своей инсталляции).
Помимо этого есть всякие технические детали о виртуальной инфраструктуре, корелляции параметров и необычные метрики. В общем, для больших инсталляций в плане траблшутинга - штука интересная, попробуйте, это пока бесплатно.
На прошлой неделе компания VMware объявила о покупке продукта Log Insight у компании Pattern Insight вместе с командой его разработчиков. Финансовые условия сделки не разглашаются.
Решение Log Insight предназначено для аналитики в реальном времени файлов журнала (логов) в корпоративной ИТ-инфраструктуре, где присутствуют десятки и сотни различных информационных систем. Особенно это актуально для облачных инфраструктур частных и публичных облаков. Пользователями Log Insight являются такие компании как Intel, Qualcomm, Tellabs и Motorola.
С помощью Log Insight администраторы и менеджеры датацентров могут своевременно обнаруживать проблемы, отраженные в логах, а также наблюдать за различными трендами и паттернами изменений в инфраструктуре датацентра, которые являются сигналами начинающихся проблем. В продукте реализован механизм индексирования и быстрого поиска по набору логов от различных систем, а также функция аналитики причин сбоев, зафиксированных в логах, на основе шаблонов, определяемых администратором. Все эти возможности могут стать частью решения VMware vCenter Operations уже в ближайшем будущем.
Очевидно, что данная сделка хорошо вписывается в стратегию по укреплению позиций VMware на рынке облачных вычислений. В этом направлении, как вы помните, компания VMware сделала еще 2 важных шага: приобрела компании Nicira и DynamicOps.
Совсем недавно мы писали про программно-определяемые сети (Software-defined networking, SDN), концепцию которых продвигала компания Nicira, которая уже скоро стенет частью VMware. Продукт компании Nicira, Network Virtualization Platform (NVP) позволяет создать единый виртуальный пул сетевых ресурсов, полученный за счет логического объединения сетевых коммутаторов и интерефейсов датацентра средствами специализированного программного обеспечения.
На этой неделе компания Oracle сделала ответный шаг на действия VMware по приобретению Nicira: Oracle приобретает компанию Xsigo Systems, занимающуюся технологиями виртуализации сетевой инфраструктуры и, как заявлено, теми же самыми программно-определяемыми сетям, что и Nicira (однако ниже мы покажем, что это не совсем так). Сумма проводимой сделки не разглашается, однако, очевидно, что это достаточно крупная сделка, учитывая известность компании в данном сегменте и перспективность этой фундаментальной технологии.
Давайте посмотрим видео Xsigo о том, как работает их технология сетевой виртуализации в флагманском продукте Data Center Fabric:
Продукт Xsigo Systems призван решать те же проблемы, что и Nicira NVP. В условиях виртуализации сетей и хранилищ развертывание новой виртуальной машины происходит за считанные минуты, а вот настройка сетевого взаимодействия, VLAN'ов безопасности и политик в различных сегментах сети предприятия занимает часы и дни. Решая эту проблему, продукт Data Center Fabric позволяет объединить сетевые ресурсы в единый пул и подключать виртуальные машины к нужным политикам и портам коммутаторов в несколько кликов. Все это особенно актуально для облачных провайдеров, имеющих в своем облаке десятки и сотни различных компаний, развертывающих свои виртуальные машины в собственной сетевой среде.
Поскольку из ролика как всегда непонятно, как это работает, приведем отзывы некоторых источников о том, что такое Xsigo DCF. Например, Wired пишет, что DCF - это продукт попроще, чем NVP от Nicira, и предназначен он для виртуализации ввода-вывода (I/O Virtualization) при подключении оконечного оборудования вроде HP Virtual Connect:
Although comparisons with VMware’s $1.26 billion acquisition of Nicira are inevitable, Xsigo actually makes a very different type of product. Whereas Nicira offers a tool that lets you build entire computer networks using nothing but software, Xsigo sells a simpler product called Data Centre Fabric (DCF), which is specifically designed to virtualize network cards and connections, reducing the amount of physical hardware and network cabling required to run a network of virtual machines.
....
This reduces both the amount of physical networking hardware required and the amount of cabling required. DCF is more comparable to HP’s Virtual Connect product. But Virtual Connect only works with HP hardware and DCF works with servers and hardware from multiple vendors.
Кстати, у Xsigo используется такое программно-аппаратное решение, которое находится "On top of the rack", агрегирующее сетевые интерфейсы оборудования и называющееся Xsigo I/O Director (сейчас он называется Fabric Diector):
Как мы видим, I/O Director соединяется с серверами по технологии 10G Ethernet или Infiniband. Отмечается также, что продукт Xsigo не требует использования виртуальных сетей VLAN для изоляции трафика виртуальных машин. При этом DCF не поддерживает технологию OpenFlow. На данный момент Xsigo DCF поддерживает аж пять гипервизоров (очевидно, поддержка должна быть на уровне виртуальных коммутаторов для платформы виртуализации): VMware vSphere, Citrix XenServer, Microsoft Hyper-V, Oracle VM Server и Red Hat Enterprise Virtualization.
Есть и другие мнения о том, чем за последние полгода стало решение Xsigo DCF:
Xsigo is the real SDN solution, it allows you to spin up connectivity from any server to any server on the fly in software and scales to thousands of servers. Nicira is nothing more than a tunneling technology inside legacy 30 year old switching technology, it doesn't solve the latency or speed requirements for today's datacenter nor the dynamic configuration requirements. Nicira and other openflow technologies are nothing more than a stop gap solution to get around configuring many different switch layers.
Однако большинство склоняется, все-таки, к тому, что DCF-это не SDN-решение, а более нишевая технлогия, направленная на уменьшение количества соединений и упрощения процедур реконфигурации программного и аппаратного обеспечения в случае изменений в сети (например, при изменении хранилища с FC на iSCSI).
Управление виртуальными сетями и соединениями производится из центральной консоли Xsigo Fabric Manager, который управляет виртуальными ресурсами, сетями, QoS и имеет шаблоны соеднинений для сетей виртуальных машин:
В составе решения есть также компоненты Xsigo Storage Accelerator и Performance Monitor:
Есть также и модная управлялка Xsigo XMS 3.0 для iPad:
Не так давно мы писали про проект Boomerang, который доступен на сайте VMware Labs. Это утилита, которая размещается в трее и с помощью которой можно получать быстрый доступ к консоли виртуальных машин (через VMware Remote Console, VMRC) и управлению питанием. Машины можно помечать звездочками, чтобы выделить их в списке Favorites. К сожалению, Boomerang не работает для бесплатного VMware ESXi (см. комментарии), но поддерживает одновременное подключение к нескольким хост-серверам в платной версии.
На днях произошло обновление продукта до версии Boomerang 2.0.
Среди новых возможностей VMware Boomerang 2.0:
Поддержка нескольких серверов View Connection Server одновременно и их виртуальных машин.
При установке продукта поддержку VMware vSphere или VMware View можно опционально отключить.
Сортировка серверов в алфавитном порядке.
Если включен поиск ВМ, то список ВМ серверов автоматически раскрывается.
Напомним основные возможности продукта VMware Boomerang:
Поддержка соединения к нескольким серверам ESX/ESXi и нескольким серверам vCenter одновременно.
Поддержка соединения к нескольким серверам View Connection Server одновременно.
Соединение с десктопами VMware View по протоколу PCoIP или RDP.
Автоматическое перенаправление клиентских принтеров в десктопы View через ThinPrint.
Сохранение логина и пароля для входа на серверы.
Панель Favorites для удобства просмотра машин на нескольких серверах.
Удобная панель управления питанием ВМ.
Поиск машины в списке происходит набором ее имени на клавиатуре.
Серверы с большим количеством ВМ автоматически сворачиваются в гиперссылки, которые можно развернуть.
Автоматический поиск обновлений для утилиты.
Секция Recently Used, показывающая машины, с которыми были последние соединения.
Быстрый поиск ВМ по всем серверам.
Скачать VMware Boomerang 2.0 можно по этой ссылке (всего 12 МБ).
Для тех, кто активно использует инфраструктуру виртуальных ПК на базе решения VMware View, на сайте проекта VMware Labs появился интересный скрипт - View Controlled Recompose Script. Как знают пользователи VMware View, при необходимости обновления десктопов можно сделать операцию "Recompose", где, выбрав обновленный снапшот базовой ВМ или другую базовую ВМ, можно перестроить виртуальные машины пользователей пула ПК на работу с новым диском, не затрагивая диск с пользовательскими данными:
В отличие от стандартых средств по рекомпозиции в VMware View Manager, в скрипте View Controlled Recompose производится интеллектуальная процедура: через интерфейс WMI производится определение неиспользуемых виртуальных машин, после чего один из таких десктопов используется как реплика (Replica VM), а далее для неиспользуемых десктопов происходит рекомпозиция на базе этой реплики. Потом для активных десктопов можно сделать Force Logoff и перенаправить пользователей на уже рекомпозированные виртуальные ПК, а для этих активных десктопов, в свою очередь, доделать рекомпозицию.
По умолчанию скрипт работает в интерактивном режиме и принимает следующие входные параметры:
Pool - пул виртуальных ПК для рекомпозиции
ParentVM - полный путь к базовому образу
NewSnapshot - полный путь к снапшоту образа, из которого будет создаваться реплика и делаться рекомпозиция
Скрипт необходимо запускать на сервере VMware View Connection Server, сам же скрипт сделан на PowerCLI / PowerShell. Более подробные инструкции по его использованию приведены по этой ссылке.
Скачать скрипт VMware View Controlled Recompose Script можно по этой ссылке.
На сайте проекта VMware Labs появилась новая интересная утилита Guest Reclaim, позволяющая уменьшить размер "тонкого" (thin provisioned) диска виртуальной машины из гостевой ОС Windows, истребовав нулевые блоки. Напомним, что когда тонкий диск виртуальной машины растет по мере наполнения данными, а потом вы эти данные в самой гостевой системе удаляете, его размер не уменьшается.
Один из способов уменьшить диск машины в VMware vSphere - это использовать утилиту sdelete для очистки блоко и перемещение виртуальной машины на другое хранилище средствами Storage vMotion. Однако, если вы прочтете нашу статью про datamover'ы при Storage vMotion и вспомните, что VMware vSphere 5 использует унифицированные блоки размером 1 МБ для всех хранилищ, то поймете, что этот способ больше не работает, поскольку в датамувере fs3dm не реализована процедура вычищения блоков целевого виртуального диска.
Есть конечно способ отключить fs3dm и, все-таки, уменьшить виртуальный диск машины на ESXi, однако это не очень удобная процедура. Поэтому сотрудники VMware и сделали удобную консольную утилитку Guest Reclaim, которая позволяет уменьшить диск с файловой системой NTFS.
Поддерживаются следующие гостевые ОС:
Windows XP
Windows Vista
Windows 7
Windows Server 2003
Windows Server 2008
Запускать утилиту нужно из гостевой ОС, в которой есть диски, являющиеся тонкими. Чтобы просмотреть список тонких дисков используйте команду:
GuestReclaim.exe -list
Если ничего не найдено - значит первые 16 дисков не являются тонкими или у вас ESXi 5.0 и ниже (читайте дальше). VMware предлагает приступать к уменьшению диска, когда у вас разница между размером VMDK и файлами гостевой ОС хотя бы 1 ГБ, при этом для работы самой утилиты может потребоваться дополнительно 16-100 МБ свободного места. Также перед началом использования утилиты рекомендуется запустить дефрагментацию диска, на которую тоже может потребоваться свободное место (будет расти сам VMDK-файл).
Команда, чтобы уменьшить тонкий VMDK-диск за счет удаления нулевых блоков, выполняемая из гостевой ОС:
guestReclaim.exe --volumefreespace D:\
Еще одно дополнение - утилиту можно использовать и для RDM-дисков.
А теперь главное - утилита работает только в случае, если hypervisor emulation layer представляет гостевой ОС диски как тонкие. В VMware ESXi 5.0, где Virtual Hardware восьмой версии, такой возможности нет, а вот в ESXi 5.1, где уже девятая версия виртуального железа - такая возможность уже есть. Соответственно, использовать утилиту вы можете только, начиная с VMware vSphere 5.1 (бета сейчас уже у всех есть), а пока можно использовать ее только для RDM-дисков.
Из ограничений утилиты Guest Reclaim:
Не работает со связанными клонами (Linked Clones)
Не работает с дисками, имеющими снапшоты
Не работает под Linux
Из дополнительных возможностей:
Поддержка томов Simple FAT/NTFS
Поддержка flat partitions и flat disks для истребования пространства
Работа в виртуальных и физических машинах
FAQ по работе с утилитой доступен по этой ссылке. Скачать утилиту можно тут.
Но нас с вами интересует, конечно же, не это. Главная для нас новость - это анонс нового публичного IaaS-облака от интернет-гиганта, которое называется Google Compute Engine. На конференции было продемонстрировано приложение по обсчету генома, запущенное в кластере из 1250 виртуальных машин (у каждой 8 ядер) на этой платформе, что, возможно, намекает на направленность Google на сегмент "Big Data", а также научные и исследовательские задачи крупных компаний и университетов.
Google Compute Engine - это новый сервис аренды вычислительных сред в публичном облаке (IaaS) на базе ОС Linux, предоставляющий услуги на базе платы за почасовое потребление ресурсов (вычислительные мощности и хранилища). Поддержки Windows в данных вычислительных средах пока не заявлено. Напомним, что у Google уже есть PaaS-платформа App Engine и сервис облачного хранения Cloud Storage. Сам сервис Compute Engine (CE) доступен для пробного использования только по приглашениям (Limited Preview).
Таким образом, мы получаем трех потенциальных лидеров рынка IaaS-сервисов из публичного облака: старейший Amazon AWS, анонсированный в начале июня Microsoft Windows Azure и Google Compute Engine. Особняком стоит компания VMware, предоставляющая решения VMware vCloud, на базе которых любой сервис-провайдер может построить публичное облако. При этом VMware не скрывает своей направленности исключительно на крупный корпоративный сектор (сейчас существует около 125 сертифицированных публичных облаков vCloud от партеров VMware по программе VSPP в 26 странах, которые предлагают аренду виртуальных машин). Отметим также и решение Citrix Xen Cloud Platform от компании Citrix и сообщества Xen.
Основные особенности Google Compute Engine:
Вычислительные среды. Доступны в конфигурации 1,2,4 или 8 ядер на Linux-платформе с 3,75 ГБ оперативной памяти на одно ядро.
Хранилища. Можно хранить данные виртуальных машин в виде непостоянных (Ephemeral), а также постоянных (Persistent) дисков на стороне Google или в сервисе Google Cloud Storage. Для постоянных дисков можно делать снапшоты в целях резервного копирования, а также предоставлять доступ к одному диску со стороны нескольких ВМ. Все данные дисков шифруются.
Сетевое взаимодействие. Возможность использовать высокопроизводительное сетевое оборудование датацетров Google и самостоятельно конфигурировать сетевые экраны, также использовать внешний IP-адрес. Плюс готовые решения от сторонних вендоров, которые выступают партнерами Google.
Управление. Виртуальными машинами можно будет управлять через веб-консоль или CLI, также есть API, предоставляющий множество возможностей разработчикам и сторонним производителям.
Google Compute Engine будет интегрирован с партнерскими решениями RightScale, Puppet Labs,OpsCode, Numerate, Cliqr, MapR и другими.
Безусловно, Google вступает на рынок IaaS-решений довольно поздно. Но это только одна сторона медали - на самом деле, более 90% компаний вообще еще не пользовались облачными ресурсами уровня IaaS, поэтому потенциал рынка огромный. Также отметим возможную "нишевость" сервиса от Google, если он будет направлен на высокопроизводительные вычисления по цене существенно меньшей, чем у конкурентов.
Значение GCEU (Google Compute Engine Units), которое вы видите в правой колонке - это аналог Amazon EC2 Compute Unit (как написано тут), т.е. где-то эквивалент 1.0-1.2 ГГц на процессорах 2007 Opteron or 2007 Xeon.
Также на сайте thenextweb.com проведено сравнение анонсированных цен на Google Compute Engine и уже объявленных Microsoft на Windows Azure. По расчетам получается, что при где-то одинаковой цене мощностей Google Compute Engine и Windows Azure, сервис от Google дает на 50% больше оперативной памяти для ВМ.
В конце прошлой недели компания VMware в рамках проекта Labs выпустила очень интересный продукт - VMware ThinApp Factory, который предоставляется бесплатно всем пользователям с действующей лицензией на VMware ThinApp (входит в издание VMware View Premier). ThinApp Factory позволяет производить масштабное создание виртуализованных приложений в контейнерах ThinApp в корпоративных окружениях, насчитывающих сотни приложений, из единой консоли. С помощью ThinApp Factory массовая упаковка приложений в контейнеры превращается в упорядоченный рабочий процесс, приводящий в итоге к публикации приложений в сервисе федерации VMware Horizon Application Manager (на картинке он еще называется ThinApp Store):
VMware ThinApp Factory поставляется в виде виртуального модуля (Virtual Appliance), построенного на базе ОС Debian Linux с веб-интерфейсом управления на базе сервера TomCat. В качестве источников для создания виртуализованных приложений могут быть использованы файловые хранилища с инсталляторами приложений, импортированные вручную дистрибутивы, а также источники "RSS-style app-installer feeds" в формате JSON (JavaScript Object Notation).
Упаковка приложений производится в потоковом режиме с одновременным исполнением нескольких задач:
Используя источники приложений в формате JSON, можно отслеживать появление новых версий приложения и тут же паковать их:
Приложения автоматически скачиваются из источников, указанных администратором, и складываются в репозиторий:
VMware ThinApp Factory имеет также возможность "рецептов" (Recipes) - наборов шагов настройки приложений (они берутся из уже установленных приложений или пакетов ThinApp), которые сохраняются в базе и могут быть применены к создаваемым пакетам виртуализованных приложений. Источником рецепта может быть пользователь или рекомендации VMware.
Само собой, поддерживается и импорт существующих проектов ThinApp:
В ThinApp Factory можно создать Virtual Machine Work Pool - пул виртуальных машин, в которых будет происходить создание виртуализованных приложений, в соответствии с их требованиями к версии операционной системы (напомним о необходимости наличий лицензий для них):
Наряду с функциями автоматического создания пакетов, в ThinApp Factiry администратор может самостоятельно "записывать" проект и создавать пакет:
Для работы виртуального модуля ThinApp Factory потребуется серверная платформа VMware vSphere 4.1 или более поздней версии, либо настольная платформа VMware Workstation 8.x или более поздняя. На тему функциональности и архитектуры ThinApp Factory есть также неплохая презентация.
Основная страница продукта VMware ThinApp Factory находится тут, документация доступна по этой ссылке.
Мы уже недавно писали о метриках производительности хранилищ в среде VMware vSphere, которые можно получить с помощью команды esxtop. Сегодня мы продолжим развивать эту тему и поговорим об общей производительности дисковых устройств и сайзинге нагрузок виртуальных машин по хранилищам в виртуальной среде.
Как говорит нам вторая статья блога VMware о хранилищах, есть несколько причин, по которым может падать производительность подсистемы ввода-вывода виртуальных машин:
Неправильный сайзинг хранилищ для задач ВМ, вследствие чего хранилища не выдерживают такого количества операций, и все начинает тормозить. Это самый частый случай.
Перегрузка очереди ввода-вывода со стороны хост-сервера.
Достижение предела полосы пропускания между хостом и хранилищем.
Высокая загрузка CPU хост-сервера.
Проблемы с драйверами хранилищ на уровне гостевой ОС.
Некорректно настроенные приложения.
Из всего этого набора причин самой актуальной оказывается, как правило, первая. Это происходит вследствие того, что администраторы очень часто делают сайзинг хранилищ для задач в ВМ, учитывая их требования только к занимаемому пространству, но не учитывая реальных требований систем к вводу выводу. Это верно в Enterprise-среде, когда у вас есть хранилища вроде HDS VSP с практически "несъедаемой" производительностью, но неверно для Low и Midrange массивов в небольших организациях.
Поэтому профилирование нагрузки по хранилищам - одна из основных задач администраторов VMware vSphere. Здесь VMware предлагает описывать модель нагрузки прикладной системы следующими параметрами:
Размер запроса ввода-вывода (I/O Size)
Процент обращений на чтение (Read)
Процент случайных обращений (Random)
Таким образом профиль приложения для "типичной" нагрузки может выглядеть наподобие:
8KB I/O size, 80% Random, 80% Read
Само собой, для каждого приложения типа Exchange или СУБД может быть свой профиль нагрузки, отличающийся от типичного. Размер запроса ввода-вывода (I/O Size) также зависит от специфики приложения, и о том, как регулировать его максимальное значение на уровне гипервизора ESXi, рассказано в KB 1008205. Нужно просто в Advanced Settings выставить значение Disk.DiskMaxIOSize (значение в килобайтах). Некоторые массивы испытывают проблемы с производительностью, когда размер запроса ввода-вывода очень велик, поэтому здесь нужно обратиться к документации производителя массива. Если с помощью указанной настройки ограничить размер запроса ввода-вывода, то они будут разбиваться на маленькие подзапросы, что может привести к увеличению производительности подсистемы ввода-вывода на некоторых системах хранения. По умолчанию установлено максимальное значение в 32 МБ, что является достаточно большим (некоторые массивы начинают испытывать проблемы при запросах более 128 KB, 256 KB или 512KB, в зависимости от модели и конфигурации).
Однако вернемся к профилированию нагрузок по хранилищам в VMware vSphere. В одной из презентаций VMware есть замечательная картинка, отражающая численные характеристики производительности дисковых устройств в пересчете на шпиндель в зависимости от типа их организации в RAID-массивы:
Параметры в верхней части приведены для операций 100%-й последовательной записи для дисков на 15К оборотов. А в нижней части приведены параметры производительности для описанной выше "типичной" нагрузки, включая среднюю скорость чтения-записи, число операций ввода-вывода в секунду (IOPS) и среднюю задержку. Хорошая напоминалка, между прочим.
Теперь как анализировать нагрузку по вводу выводу. Для этого у VMware на сайте проекта VMware Labs есть специальная утилита I/O Analyzer, про которую мы уже писали вот тут. Она может многое из того, что потребуется для профилирования нагрузок по хранилищам.
Ну а дальше стандартные процедуры - балансировка нагрузки по путям, сторадж-процессорам (SP) и дисковым устройствам. Сигналом к изысканиям должен послужить счетчик Device Latency (DAVG) в esxtop, если его значение превышает 20-30 мс для виртуальной машины.
Мы уже писали о новых возможностях VMware View 5.1 и новых клиентах, а сегодня поговорим о производительности этого решения для виртуализации настольных ПК предприятия. Прежде всего, напомним 2 основных документа, откуда можно узнать о том, какие техники использует VMware View и в каких моментах превосходит Citrix XenDesktop:
Теперь VMware View 5.1 идет еще дальше по сравнению с версией 5.0:
1. Появилась функция VMware View Storage Accelerator
Этот механизм позволяет использовать оперативную память сервера для кэширования наиболее часто используемых блоков данных виртуальных ПК, запрашиваемых с конечного устройства. Делается это средствами технологии Content Based Read Cache (CBRC), поддержка которой уже имеется в VMware vSphere 5.0. Эта штука, само собой, положительно влияет на скорость обмена данными с конечными устройствами и производительность операций ввода-вывода для виртуальных ПК, поскольку блоки запрашиваются напрямую из памяти хост-сервера:
Этот тест проводился для 50 виртуальных ПК с гостевой ОС Windows 7 и были достигнуты следующие результаты (по сравнению с ситуацией, когда CBRC отключен):
Увеличение до 80% пиковых IOPS
Увеличение на 45% средних IOPS
Увеличение пиковой скорости обмена с ПК до 65%
Увеличение средней скорости обмена с ПК на 25%
2. Оптимизация клиентов VMware View 5.1
Со стороны клиентов, компания VMware внесла множество улучшений, большинство которых сделано для увеличения производительности воспроизведения видео. По сравнению с версией View 5.0, клиенты View 5.1 дают следующий прирост в плане видео:
При этом отметим, что улучшения были сделаны как для x86, так и для ARM-клиентов.
3. Улучшения коммуникации клиент-сервер в View 5.1.
В механизмах коммуникации клиента VMware View 5.1 с виртуальной машиной на сервере было сделано множество умных и полезных улучшений, сводящихся к тому, что клиент чаще и быстрее взаимодействует с виртуальным ПК, что приводит к приросту производительности операций перетаскивания объектов (и гладкости их прорисовки), а также скроллинга. Вот, например, как отличается прорисовка кривых по протоколам PCoIP (View 5.1) и RDP:
В общем, если и раньше были объективные причины предлагать клиентам Citrix XenDesktop по причине высокой производительности протокола Citrix HDX, то теперь их практически не осталось. С каждой новой версией видно, что VMware инвестирует в PCoIP, а XenDesktop просто стоит дороже.
На сайте проекта VMware Labs, о котором мы не раз писали, появился новый технический журнал для администраторов платформы виртуализации VMware vSphere и других продуктов - VMware Technical Journal. Первый номер насчитывает 80 страниц:
Предполагается, что это издание, освещающее основные активности R&D-подразделения VMware, будет выходить на регулярной основе и представлять все основные новинки и продукты, над которыми работает VMware, с технической стороны. Вот темы первого номера:
На сайте известного многим из вас проекта VMware Labs появилось очередное приложение. Бесплатное средство VMware vBenchmark, поставляемое в виде готового виртуального модуля (Virtual Appliance на базе SLES 11), позволяет измерять ключевые метрики производительности инфраструктуры VMware vSphere, анализировать времена типичных операций в виртуальной среде, а также определять показатели качества обслуживания для виртуальных сервисов (например, простой хост-серверов или сколько времени простоя помогают избежать функции высокой доступности).
То есть основная мысль vBenchmark - предоставить пользователю количественные показатели преимуществ, получаемых средствами инфраструктуры виртуализации VMware vSphere.
Основные возможности VMware vBenchmark:
Получение метрик с одного или нескольких серверов vCenter
Возможность включения или исключения хостов на уровне кластера из анализа
Возможность сохранять запросы к инфраструктуре и сравнивать их между собой в разные точки времени
Воможность сравнить ваше облако с аналогами по региону, отрасли и размеру организации, чтобы определить, насколько хорошо оно устроено
Последняя возможность предполагает загрузку результатов анализа в общий репозиторий, который представляет собой глобальную базу данных организаций.
Статистика инфраструктуры:
Метрики эффективности виртуальной среды:
Показатели типовых операций:
Все это и остальные вкладки утилиты вы можете увидеть в ролике, записанном Владаном Сегетом:
Скачать виртуальный модуль VMware vBenchmark можно по этой ссылке. Отметим, что он поставляется как в форматах OVF/OVA (vCenter+vCloud Director), так и в обычном VMX, что позволит развернуть продукт на VMware Workstation, Fusion и Player.
На сайте проекта VMware Labs появилась весьма достойная внимания утилита - GUI-плагин к vSphere Client для VMware Auto Deploy. Как вы знаете, среди новых возможностей VMware vSphere 5 появились функции Auto Deploy (только для Enterprise Plus издания), которые позволяют развертывать хост-серверы VMware ESXi по сети через механизм PXE. Это позволяет использовать бездисковые серверы ESXi и проводить массовые развертывания хостов в больших виртуальных инфраструктурах.
Теперь плагин Auto Deploy GUI к vSphere Client позволит настраивать параметры такого развертывания без необходимости использования интерфейса командной строки PowerCLI/PowerShell:
Плагин Auto Deploy GUI весит всего 8 МБ и предоставляет следующие возможности:
Создание и управление профилями образов ESXi (image profiles)
Правила (rules), отражающие мапинг хостов к профилям образов
Поддержка профилей хостов (Host Profiles) для правил, соответствующих профилям образов
Проверка соответствия хостов правилам и приведение в соответствие с ними
Просмотр параметров VIB
Возможность использования стандартных хранилищ образов ESXi и агентов (HA, vCloud), а также сторонних репозиториев
Возможность встраивания пакетов ПО и драйверов
Клонирование сконфигурированного образа
К Auto Deploy GUI идет хороший документ по настройке (без воды - Practical Guide), скачать его можно по этой ссылке. Сам же плагин Auto Deploy GUI можно скачать тут.
На сайте проекта VMware Labs, где в последнее время часто появляются полезные утилиты от сотрудников VMware, опубликована новая штучка - VMware I/O Analyzer, виртуальный модуль (Virtual Appliance) для анализа статистики по вводу-выводу.
Данное ПО включает в себя стандартные средства для измерения производительности систем хранения VMware vSphere, которые позволят выявить проблемы и узкие места в инфраструктуре хранилищ.
Ключевые возможности VMware I/O Analyzer:
Интегрированный фрейворк для тестирования хранилищ
Готовый к развертыванию виртуальный модуль
Прост в настройке и возможность исполнения тестов на нескольких хостах ESX/ESXi
Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС
Возможность экспорта данных для последующего анализа
Скачать VMware I/O Analyzer можно по этой ссылке. Инструкция по развертыванию доступна тут.
На сайте проекта VMware Labs, где публикуются результаты внутренних разработок VMware (т.е. утилиты, которые факультативно разрабатываются сотрудниками компании) появилась новая утилита ESX System Analyzer.
ESX System Analyzer - это утилита, поставляемая в виде готового виртуального модуля (Virtual Appliance), которая позволяет пользователям спланировать миграцию хост-серверов ESX на платформу ESXi. Она анализирует серверы ESX в виртуальной инфраструктуре и собирает для каждого хоста информацию, которую необходимо учитывать в процессе миграции:
Аппаратную совместимость серверов с ESXi
Виртуальные машины, зарегистрированные на хосте ESX, а также ВМ, которые находятся на локальных дисках
Отличия настроек компонента Service Console от стандартных:
RPM-пакеты, которые были добавлены или удалены
Файлы в сервисной консоли, которые добавляли пользователи
Добавленные пользователи и задачи cron
Утилита ESX System Analyzer также собирает информацию о виртуальном окружении:
Версии VMware Tools и Virtual Hardware для всех виртуальных машин
Версии файловых систем для томов VMFS
На базе этой информации администраторы могут определить задачи, которые следует выполнить перед миграцией. Например:
Переместить ВМ с локальных дисков на общие хранилища
Понять, как можно заменить агентов в сервисной консоли на их безагентные альтернативы или CIM-агенты
Заменить задачи cron удаленными скриптами PowerCLI или vCLI
Системные требования к ВМ, содержащей ESX System Analyzer (работа с утилитой производится через веб-интерфейс):
20GB virtual disk
512MB virtual memory
1 vCPU
vCenter Server 2.5, 4.0, 4.1, 5.0
ESX Hosts 3.5, 4.0, 4.1
Административный доступ к vCenter Server
Root password для анализируемых ESX
Включенный доступ Root по SSH на всех хостах
Скачать ESX System Analyzer можно по этой ссылке. Инструкция по работе с продуктом - тут.
Компания VMware в очередной раз проводит ежегодную конференцию по виртуализации VMworld 2011 - самое значимое событие в области виртуализации этого года. На мероприятии будет рассказано о деталях выхода линейки продуктов VMware vSphere 5, VMware Site Recovery Manager 5, VMware vShield 5, VMware vStorage Appliance, VMware vCloud Director 1.5 и других облачных инициативах компании. Таги: